Les pays européens approuvent une première loi pour réguler l’intelligence artificielle


Les Etats membres de l’Union européenne (UE) ont approuvé, vendredi 2 février, l’Artificial Intelligence Act, une législation inédite au niveau mondial pour réguler l’intelligence artificielle (IA), a annoncé la présidence belge du Conseil de l’UE.

Les ambassadeurs des Vingt-Sept ont « confirmé à l’unanimité » l’accord politique trouvé en décembre dernier entre les Etats membres et les eurodéputés, a-t-elle indiqué sur X. Les négociations sur ce texte, qui ont débuté en avril 2021, avaient été percutées à la fin 2022 par l’apparition de ChatGPT, le générateur de textes de l’entreprise californienne OpenAI, capable de rédiger des dissertations, des poèmes ou des traductions en quelques secondes.

Certains pays, dont la France et l’Allemagne, avaient soulevé des points de préoccupation, pris en compte avant la finalisation du texte, selon des diplomates auprès de l’Agence France-Presse. Paris et Berlin étaient notamment soucieux que la législation européenne protège les start-up spécialisées dans l’intelligence artificielle, pour ne pas empêcher l’émergence de futurs « champions européens » du secteur.

« Une première mondiale »

« Ce “AI Act” est une étape marquante, établissant les premières règles de la planète visant l’intelligence artificielle, pour la rendre plus sûre et respectueuse des droits fondamentaux de l’UE », a affirmé la présidence belge. Le commissaire européen au marché intérieur, Thierry Breton, chargé du dossier, a salué une réglementation « historique, une première mondiale » qui reconnaît « l’équilibre parfait trouvé par les négociateurs entre l’innovation et la sécurité ».

Lire aussi | Article réservé à nos abonnés Les traducteurs littéraires victimes de l’intelligence artificielle

Sur les IA génératives, des règles s’imposeront à tous pour s’assurer de la qualité des données utilisées dans la mise au point des algorithmes et pour vérifier qu’ils ne violent pas la législation sur les droits d’auteur. Les développeurs devront par ailleurs s’assurer que les sons, les images et textes produits seront bien identifiés comme artificiels. Des contraintes renforcées s’appliqueront aux seuls systèmes les plus puissants.

Les systèmes jugés à « haut risque » – dans des domaines sensibles comme les infrastructures critiques, l’éducation, les ressources humaines, le maintien de l’ordre… –, seront soumis à une série d’obligations, comme celles de prévoir un contrôle humain sur la machine, l’établissement d’une documentation technique, ou encore la mise en place d’un système de gestion du risque.

Le Monde



Source
Catégorie article Politique

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.